跨视角景象匹配是指从不同平台(如无人机、卫星等)发现同一地理目标的图像。然而,不同图像平台会导致无人机(UAV)定位和导航任务精度较低,现有方法通常只关注图像的单一维度,忽略了图像的多维特征。针对上述问题,提出一种全局注意力和多粒度特征融合(GAMF)深度神经网络以改进特征表示,提高特征可区分度。首先,GAMF模型结合无人机视角和卫星视角的图像,在统一的网络架构下延展为3个分支,从3个维度提取图像的空间位置、通道和局部特征;然后,建立空间全局关系注意力模块(SGAM)和通道全局注意力模块(CGAM),引入空间全局关系机制和通道注意力机制捕获全局信息,从而更好地进行注意力学习;其次,为了融合局部感知特征,引入局部划分策略,以更好地增强模型提取细粒度特征的能力;最后,联合3个维度的特征作为最后的特征对模型训练。在公开数据集University-1652上的实验结果表明,GAMF模型在无人机视觉定位任务上的平均精准率(AP)达到了87.41%,在无人机视觉导航任务中召回率(R@1)达到了90.30%。验证了GAMF模型能够有效聚合图像的多维特征,提高无人机定位和导航任务的准确性。